L'Internet Watch Foundation, ONG qui gère la hotline des signalements de photos ou de vidéos d'abus sexuels sur enfants sur Internet, tire la sonnette d'alarme sur les contenus pédopornographiques générés par IA.
Elle explique rencontrer de plus en plus de contenus d'abus sexuels d'enfants créés en utilisant les technologies d'intelligence artificielle sur des sites aisément accessibles.
L'IWF ajoute avoir agi à propos de 74 signalements pour de tels contenus entre avril et fin septembre (une période de 6 mois donc). Elle avait agi sur 70 signalements sur la période des 12 mois précédents, entre avril 2023 et avril 2024.
Pour 99 % de ces contenus, aucun navigateur spécifique comme Tor Browser n'était nécessaire pour y accéder.
La plupart d'entre eux (78 %) lui ont d'abord été signalés par des internautes qui sont tombés sur un forum ou une galerie d'images générées par IA. Le reste a été détecté par les analystes de l'ONG en cherchant de manière proactive.
Mais, en plus du problème de la profusion d'images de ce type, l'Internet Watch Foundation explique que la détection de photos pédocriminelles réelles risque d'en pâtir.
Un de ses analystes témoigne : « Je trouve cela vraiment effrayant, car j'ai l'impression que nous sommes à un point de basculement et que des organisations comme nous et la police risquent d'être submergées par des centaines et des centaines de nouvelles images, sans que nous sachions toujours s'il s'agit d'un véritable enfant qui a besoin d'aide ».
L'ONG signale que plus de la moitié des serveurs qui hébergeaient ce type de contenus se trouvaient dans deux pays : 27 en Russie, 16 aux États-Unis. Le Japon et les Pays-Bas suivent avec respectivement 8 et 6 des serveurs. 3 de ces serveurs se trouvaient en France et un seul des serveurs listés par l'IWF n'était accessible que via une URL en .onion.
L'IWF rappelle que ses analystes continuent de repérer des images de victimes de pédocriminalité utilisées pour générer de nouvelles images et des deepfakes de violences sexuelles.
Commentaires (6)
#1
#1.1
Historique des modifications :
Posté le 18/10/2024 à 16h44
Ils ne savent pas, justement. Tous les serveurs concernéspar un signalement, sauf 1, n'étaient pas en .onion.
#1.2
Je pensais qu'un des trois serveurs en France était en .onion… (me manquait le "et" entre les deux 😅)
Historique des modifications :
Posté le 18/10/2024 à 17h16
Ah, j'ai mal compris cette phrase alors :
Je pensais qu'un des trois serveurs en France était en .onion… 😅
#2
Avec les IA génératives, le concept de "réalité" s'estompe peu à peu.
La loi devra choisir entre:
- étendre la criminalité aux contenus générés artificiellement.
- autoriser les contenus générés artificiellement, même s'ils sont photoréalistes .
#2.1
L'intérêt de détecter les images réelles, c'est pour retrouver les enfants.
#3
On avait eu une polémique avec Bastien Vives y a qques années en France avec sa BD d'un gamin avec une teub énorme.
Historique des modifications :
Posté le 18/10/2024 à 17h55
Les lois changent selon les pays à ce sujet, il me semble par exemple qu'aux states si c'est une œuvre dessin ou numérique et pas un vrai enfant ça n'est pas illégal (j'ai un vieux /board en tête). Je ne sais pas quelle est la mesure en France.